'born digitals' und die historische Wissenschaft – Annäherungen an eine Quellenkunde für genuin elektronisches Archivmaterial

'born digitals' und die historische Wissenschaft – Annäherungen an eine Quellenkunde für genuin elektronisches Archivmaterial

Organisatoren
Landesarchiv Nordrhein-Westfalen
PLZ
47059
Ort
Duisburg
Land
Deutschland
Fand statt
In Präsenz
Vom - Bis
30.08.2022 - 31.08.2022
Von
Marlene Ernst, Lehrstuhl für Digital Humanities, Universität Passau

Der vom Landesarchiv Nordrhein-Westfalen organisierte Expertenworkshop lud Historiker:innen wie Archivar:innen gleichermaßen dazu ein, gemeinsam über Ist-Stand wie auch Zukunftsperspektiven und Desiderata hinsichtlich genuin digitaler Quellen zu diskutieren und sich auszutauschen. Digitale Quellen und Methodenkritik standen im Zentrum der zweitägigen Veranstaltung. Bereits bei der Begrüßung durch Hausherrn FRANK M. BISCHOFF (Duisburg) und Historiker ANDREAS FICKERS (Luxemburg) wurde dabei klar, dass auf beide Standpunkte und unterschiedliche Herangehensweisen eingegangen werden sollte.

Die erste Sektion lieferte zunächst einführende Grundgedanken zum Tagungsthema. In der ersten diesbezüglichen Session wurden quellenkundliche Überlegungen hinsichtlich genuin elektronischer Archivmaterialien präsentiert. Die Archivperspektive lieferte dabei BETTINA JOERGENS (Duisburg). Sie stellte klar, wie relevant der Austausch zwischen den beiden Berufsgruppen nach wie vor ist, wobei die größte Herausforderung für Archivar:innen in der Sicherstellung von Authentizität und Integrität liegt, führt doch jede Datenmigration unweigerlich zu einer Datenveränderung. Die ist insbesondere bei den Provenienzangaben mitzudenken und Teil der archivischen Toolbox in Sachen Verständnis von Archivprozessen. Die Historikerperspektive dazu wurde von Andreas Fickers vorgestellt. Er argumentierte vor allem für eine Ergänzung der klassischen Hermeneutik um eine digitale Perspektive bzw. digitale Kompetenzen in allen Phasen der kritischen Reflektion. Diese neue Form des Lesens muss sich jedoch erst angeeignet werden, weswegen nach wie vor ein hoher Bedarf an neuen Curricula und Trainingsprogrammen gesehen wird.

Daran anschließend beschäftigte sich die zweite Session des Blocks mit der öffentlichen Verwaltung. BASTIAN GILLNER (Duisburg) beschrieb die Herausforderungen durch den Übergang von einem quasi-standardisierten Informationsobjekt (Papier und Akten als zentrales Ablageinstrument) hin zu einer Vielzahl an (semi-)geschlossenen IT-Systemen. Was in der analogen Welt auch einer rechtlich genau geregelten und strukturierten Ablage entspricht, wird im digitalen Pendant meist ohne bewusste Entscheidungen bzw. Struktur in (teil-)automatisierten Prozessen umgesetzt. Besonders problematisch ist die dadurch in der Frühphase der Digitalität (dies wurde mit ca. vor 2020 konkretisiert) entstandene und teilweise noch bestehende fragmentierte Überlieferung. Da die Schriftgutverwaltung im digitalen Zeitalter kaum gesteuert wird, ergibt sich zwar eine negative Bilanz, die E-Akten-Systeme und Normierungsbestrebungen eröffnen allerdings positive Zukunftsperspektiven.

Im zweiten Teil der Session lieferte MALTE THIESSEN (Münster) ein Plädoyer für eine neu gedachte Verwaltungsgeschichte und einen Trialog zwischen Archiv, Wissenschaft und Verwaltung. Aus Historiker:innen-Perspektive sind es insbesondere Verlaufsversionen von Dokumenten, Webauftritte und Social Media-Kanäle als digitale Visitenkarten (auch von Behörden) und Formen der neuen Schriftlichkeit durch Mails und Messengerdienste, die von Forschungsinteresse sind. Vor allem Letztere werden aktuell der informellen Kommunikation zugeordnet und kaum bis (häufiger) gar nicht bei strukturierten Archivierungsprozessen berücksichtigt. Wie trotz Einsparungen und überarbeitungsbedürftiger Prozesse im Verwaltungssektor damit umzugehen ist, wird in zahlreichen Gremien und auf vielen Ebenen diskutiert, eine einheitliche Vorgehensweise fehlt bis dato allerdings noch.

Am Ende des ersten Blocks wurden elektronische Unterlagen in den Mittelpunkt gestellt. CHRISTINE FRIEDERICH (Dresden) zeigte zunächst Probleme bzw. Herausforderungen im Umgang mit bzw. bei der Erstellung von digitalem Quellenmaterial auf. Unter dem Stichwort Variabilität sind es beispielsweise Umwandlungen in ein einheitliches Format (pdf-a), die Eingriffe in die Datenstruktur darstellen. Nach wie vor gibt es innerhalb der bestehenden Prozesse auch keine einheitliche Lösung für den Umgang mit dynamischen Inhalten bzw. Darstellungen (etwa auf Websites).

Wie hybrides Quellenmaterial sinnvoll zusammengeführt werden kann, war ein weiterer Punkt ebenso wie die Frage, wie mit großen Mengen umgegangen wird. MARTIN SCHMITT (Darmstadt) schloss daran mit einem Plädoyer für die Software- bzw. Quellcodearchivierung an. Diesbezügliche Initiativen, wie etwa das CSS Lab in Aachen oder Software Heritage der UNESCO, gehören nach wie vor zu den Ausnahmen, können aber zu enormen Wissensgewinn beitragen – etwa durch Analysen der verwendeten Sprachen bei der Dokumentation, die Rückschlüsse auf Verbreitungswege und Einflüsse von außen zulassen –, wie die Projektbeispiele zur Sparkasse in der DDR von Herrn Schmitt verdeutlicht haben.

Zu Beginn der zweiten Sektion zum Thema Datentypen und -formate haben KAI NAUMANN (Stuttgart) und KATRIN MOELLER (Halle) Office-, Bild- wie auch personenbezogene Dateien aus Archiv- und Historikerperspektive im Dialog näher beleuchtet. Insbesondere personenbezogene Daten stehen im Spannungsfeld zwischen Strategien zum Datenschutz und Forschungsdatenmanagement. Die komplexen Filesysteme inkl. Dateiversionen und Metadaten bieten eine Vielzahl an Auswertungsmöglichkeiten. Distant Reading-Verfahren wie beispielsweise Entity und Sentiment Recognition oder Clustering sind mittlerweile Möglichkeiten und Methoden, die für Analysen herangezogen werden können. Dafür sind allerdings entsprechende Dateiumwandlungen nötig, um eine maschinelle Lesbarkeit zu erzielen. Archivseitige Vorarbeiten hinsichtlich einer digitalen Forensik sind nicht vorgesehen. Die Entstehungsgeschichte bzw. Versionsentwicklungen von Dateien zu rekonstruieren sind Aufgaben (zukünftiger) Historiker:innen. Als Wunsch bzw. Zukunftsvision sieht man eine enge Zusammenarbeit aller relevanten Institutionen, um sich durch gemeinsam definierte Normdaten an eine Tiefenerschließung von digitalem Material herantasten zu können.

Das Sektionsthema wurde mit dem Schwerpunkt Emails fortgesetzt. Zunächst präsentierte MARIA BENAUER (Wien) ihre archivtheoretischen Überlegungen zu dieser Quellenart, die sich in unterschiedlichen Ausformungen bzw. Definitionen präsentieren kann – es können darunter einzelne Nachrichten wie auch das damit verbundene System gemeint sein. Für behördliche Mails werden bisher zwei zu unterscheidende Bewertungskonzepte angewandt: Eines davon ist das ERMS Model, dessen Grundlage ein Geschäftsprozess ist, aber wo Studien zeigen, dass nicht immer alle relevanten Bestandteile ordnungsgemäß abgelegt werden. Alternativ bietet der Capstone Approach eine Bewertung auf Basis von ganzen Mail-Accounts und ist dadurch unabhängig von einzelnen Sachbearbeiter:innen und deren Arbeitsorganisation.

ESTHER HOWELL (München) schloss daran mit Ausführungen zu den Herausforderungen, diese archivtheoretischen Ansätze in der Praxis umzusetzen, an. Es ist vor allem die Masse der Überlieferung in diesem Bereich, die eine Archivierung erschwert. Ein Aspekt dabei sind beispielsweise datenschutzrechtliche Überlegungen: Durch die Vermischung von dienstlichen mit privaten Inhalten wäre ein Close Reading zur individuellen Bewertung nötig, was die Überlieferungsmenge allerdings kaum zulässt. Dennoch können E-Mail(-Accounts) die Überlieferungsqualität von E-Akten-Systemen enorm ergänzen. Entsprechende Werkzeuge zur Email-Archivierung können da Abhilfe schaffen. Als Praxisbeispiel für den Capstone-Approach wurde das von der Universität Stanford entwickelte Open-Source-Tool ePADD vorgestellt. Eine entsprechende Lösung (oder eine Nachnutzung des amerikanischen Systems) für den deutschsprachigen Raum wäre wünschenswert.

PASCAL FÖHR (Solothurn) eröffnete den Themenblock zu Websites und Social Media mit einer Vielzahl an Fragen – die prominenteste darunter: Was soll überhaupt gesichert werden? Gesetzliche Regelungen gibt es dafür aktuell im „DACH-Raum“ nur in Österreich. Unterschiedliche Zeitschnitte ebenso wie externe Inhalte und abhängige Darstellungen (z. B. durch Responsive Design) können zudem zu unterschiedlichen Inkarnationen derselben Seite führen. In den meisten Fällen kann aufgrund der zahlreichen Abhängigkeiten daher nur mit Surrogaten gearbeitet werden. Um dennoch nachhaltig für Analysen tauglich zu sein, sind entsprechende Metadaten zu den technischen Aspekten, Provenienz wie auch zu den Surrogaten selbst von Nöten.

MICHAEL JERUSALEM (Münster) ergänzte den Beitrag um zwei konkrete Fallbeispiele aus seinem Arbeitsalltag im Stadtarchiv Münster. Auch hier wurde mit Surrogaten gearbeitet, da eine Emulation von zahlreichen Umgebungen bei dynamischen Seiten nicht zielführend ist. Die Hauptanforderung liegt darin, die essentielle Nutzbarkeit inklusive der Gesamtwahrnehmung bzw. dem Look & Feel zu erhalten und ebenso entsprechende Metadaten zu berücksichtigen. Bei Webseiten wird häufig eine HTML-zu-PDF-Umwandlung vollzogen. Social-Media-Accounts bedürfen aufgrund der einzubeziehenden Kommentare von Dritten anderer Herangehensweisen. Insgesamt gibt es keinen einheitlichen Weg für die Archivierung von Webinhalten. Komplexe Einzellösungen führen zu einem „Webarchivierungsbaukasten“. Nach wie vor offen bleibt, wie mit dynamischen Inhalten und vor allem mit audio-visuellen Medien sinnvoll umgegangen werden soll.

Die dritte und letzte Sektion zeichnete sich vor allem durch praktische Anwendungsbeispiele aus und gab einen vertiefenden Einblick in bestehende Systeme und Praktiken. SIGRID SCHIEBER (Wiesbaden) erläuterte anhand eines konkreten Fallbeispiels den Umgang mit E-Akten in der hessischen Landesverwaltung und FRANZISKA KLEIN (Duisburg) schloss daran mit Ausführungen und Fallbeispielen zu Fachverfahren der Landesverwaltung NRW an. Die intensiven wie auch zahlreichen Diskussionen im Verlauf der gesamten Tagung haben aufgezeigt, dass Digitalität einen Grundtenor „wir können alles“ suggeriert. In der Realität bzw. Praxis gilt es allerdings, mit den Grenzen des Mach- und Schaffbaren umzugehen wie auch sich mit den diversen, in den Vorträgen aufgezeigten Problemstellungen auseinanderzusetzen.

Konferenzübersicht:
Frank M. Bischoff (Duisburg) / Andreas Fickers (Luxemburg): Begrüßung

Sektion I – Einführendes und Grundlegendes
Moderation: Christian Keitel (Stuttgart)

Bettina Joergens (Duisburg) / Andreas Fickers (Luxemburg): born digitals und die historische Wissenschaft – Annäherungen an eine Quellenkunde für genuin elektronisches Archivmaterial von zwei Seiten

Bastian Gillner (Duisburg) / Malte Thießen (Münster): Digitalisierung der Verwaltung und Digitalisierung aller künftigen Quellen

Christine Friederich (Dresden) / Martin Schmitt (Darmstadt): Spezifika elektronischer Unterlagen

Sektion II – Datentypen und -formate als Archivgut und historische Quellen
Moderation: Martin Schlemmer (Duisburg)

Kai Naumann (Stuttgart) / Katrin Moeller (Halle): Digitale Quellen: Officedateien, Bilddateien, Personenbezogene Dateien

Esther Howell (München) / Maria Benauer (Wien): Digitale Quellen: Emails

Michael Jerusalem (Münster) / Pascal Föhr (Solothurn): Digitale Quellen: Websites und Social Media

Sektion III – „Workshop im Workshop“: Digitale Systeme als Basis für Archivgut und historische Quellen
Moderation: Christian Keitel (Stuttgart)

Sigrid Schieber (Wiesbaden): Digitale Quellen: Elektronische Akten

Franziska Klein (Duisburg): Digitale Quellen: Fachverfahren

Abschlussdiskussion
Moderation: Frank M. Bischoff (Duisburg)

Kommentar: Tim Geiger (Berlin)

Redaktion
Veröffentlicht am
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Deutsch
Sprache des Berichts